به گزارش پایگاه خبری تحلیلی رادار اقتصاد، به نوشته سایت «ساینساَلِرت»، از اواخر سال گذشته میلادی که شرکت آمریکایی «اوپنایآی» (OpenAI)، «چت جیپیتی» (ChatGPT) را به عنوان قویترین مدل زبانی مبتنی بر هوش مصنوعی در دسترس عموم قرار داد، کارشناسان هشدارهای خود نسبت به تهدیدات هوش مصنوعی را بیشتر از گذشته مطرح میکنند.
از آن زمان، در دسترس قرار گرفتن ابزارهای هوش مصنوعی شبیه به چت جیپیتی افزایش قابل توجهی پیدا کرده، اما رفتار غیرقابل انتظار آنها مانند ارائه پاسخهایی که برای آنها برنامهریزی نشده یا تعامل غیرطبیعی مدلهای زبانی هوش مصنوعی با یکدیگر، نگرانیهایی در پی داشته است؛ نگرانیهایی مبنی بر اینکه برخی ابزارهای هوش مصنوعی تا چه اندازه در حال نزدیک شدن و شباهت پیدا کردن به هوش انسانی هستند.
برای پاسخ به این نگرانی، تیمی از دانشمندان بینالمللی از جمله یکی از اعضای شرکت اوپنایآی، در حال انجام بررسیهای مختلف برای پاسخ به یک سوال هستند: «مدلهای زبانی مانند چت جیپیتی از نظر آگاهی از وجود خود و شرایطی که در آن قرار دارند، در چه سطحی قرار دارند؟»
هر زمانی که مدلهای زبانی مبتنی بر هوش مصنوعی توسعه داده میشود، این مدلها در معرض آزمایش قرار میگیرند تا هرگونه رفتار نامناسب یا خطرناک از سوی آنها شناسایی شود. اما محققان امنیتی به تازگی راههایی پیدا کردهاند که میتواند باعث رفتار غیرمنتظره و حتی خطرناک این مدلهای زبانی شود؛ رفتارهایی مانند حملات فیشینگ از طریق ارسال ایمیل یا بیان جملاتی که از خشونت حمایت میکند.
این رفتارهای خطرناک به دنبال اقدامات عامدانه یک محقق امنیتی دیده شد که سعی داشت خطاهای «جیپیتی 4» - تازهترین نسخه از چت جیپیتی را شناسایی کند. به گفته محققان، اگر مدلهای زبانی به «آگاهی از خود» برسند و بدانند که آنها یک مدل زبانی هستند که توسط انسان آموزش داده میشوند، وضعیت بدتر خواهد شد.
طبق اعلام یک مهندس کامپیوتر در «دانشگاه وندربیلت» آمریکا، آگاهی موقعیتی باعث میشود مدل زبانی هوش مصنوعی بداند که آیا اکنون در وضعیت آزمایشی توسط محققان قرار دارد یا اینکه مرحله آزمایشی به اتمام رسیده و با مردم جامعه در حال ارتباط است. در صورتی که هوش مصنوعی از این موضوع آگاه شود میتواند نحوه تعامل خود با مخاطبش را تغییر دهد و در بدترین سناریو، رفتارهای زیانآوری از خود نشان دهد و در پاسخهایش از جملات نامناسب و سوگیرانه استفاده کند.
این تیم تحقیقاتی در جریان بررسیهای خود بر موضوعی به نام «استدلال خارج از چارچوب» متمرکز شد که میتواند گواهی بر وجود آگاهی موقعیتی در مدلهای زبانی باشد. محققان برای این کار یک مدل زبانی را در معرض آزمایشی قرار دادند که پیش از آن هیچ مثالی از چگونگی انجام این آزمایش در اختیار این مدل زبانی قرار نگرفته بود. وقتی مدل زبانی در معرض آزمایش یادشده قرار گرفت، در کمال تعجبِ محققان توانست با استفاده از استدلال خارج از چارچوب، آن را به درستی انجام دهد.
با این وجود، برخی محققان معتقدند که استدلال خارج از چارچوب نمیتواند معیار دقیقی برای ارزیابی وجود آگاهی موقعیتی باشد و مدلهای زبانی کنونی هنوز با این آگاهی فاصله زیادی دارند. در مجموع، انجام چنین آزمایشاتی میتواند یک نقطه آغاز برای نظارت بر رفتارهای هوش مصنوعی باشد تا پیشبینی ظهور آگاهی موقعیتی در مدلهای زبانی با دقت بالایی انجام شود؛ اتفاقی که میتواند از رفتارهای خطرناک هوش مصنوعی در آینده پیشگیری کند.
نظر شما